Dal 2 febbraio 2025 entra in vigore l’AI Act: ecco quali tecnologie sono vietate e come cambierà l’intelligenza artificiale in Europa, le nuove regole.
Dal 2 febbraio 2025 è entrata in vigore la prima fase dell’AI Act, il nuovo regolamento dell’Unione Europea che disciplina l’utilizzo dell’intelligenza artificiale con l’obiettivo di proteggere i cittadini da pratiche pericolose e discriminatorie.

Le tecnologie di intelligenza artificiale vietate dall’AI Act
Si tratta del primo provvedimento al mondo che impone limiti precisi sui sistemi di IA, vietando quelli considerati ad alto rischio e stabilendo regole stringenti per l’utilizzo di tecnologie avanzate.
L’AI Act individua alcune applicazioni di intelligenza artificiale come pericolose, vietandone l’uso perché possono minare la sicurezza, i diritti e la dignità delle persone.
Sono vietati i sistemi di IA che utilizzano tecniche subliminali, manipolative o ingannevoli per influenzare il comportamento umano senza il consenso informato dell’utente.
Esempi di sistemi proibiti:
- Pubblicità predatoria: software che analizza le emozioni di una persona e modifica il prezzo di un prodotto per incentivare acquisti impulsivi.
- Chatbot ingannevoli: assistenti virtuali che si fingono esseri umani per spingere gli utenti a condividere dati sensibili.
- IA che sfruttano vulnerabilità: sistemi che targettizzano persone vulnerabili, come anziani o disabili, per indurle a prendere decisioni dannose.
Categorizzazione biometrica e credito sociale
Il regolamento vieta la classificazione delle persone in base a razza, orientamento sessuale, religione o appartenenza politica attraverso l’analisi biometrica.
È inoltre proibito il cosiddetto credito sociale, un sistema di valutazione del comportamento che assegna punteggi agli individui, simile a quello già adottato in alcuni paesi.
È vietato l’utilizzo dell’intelligenza artificiale per prevedere la probabilità di commissione di reati basandosi esclusivamente su dati personali o caratteristiche fisiche.
Riconoscimento facciale e analisi delle emozioni
L’AI Act impone il divieto di riconoscimento facciale in tempo reale nei luoghi pubblici, con alcune eccezioni riservate alle forze dell’ordine per la ricerca di persone scomparse o la prevenzione di attacchi terroristici, previa autorizzazione giudiziaria.
È inoltre vietata l’analisi delle emozioni in ambienti di lavoro e scolastici.
Le regole per i modelli di IA generativa
Il regolamento impone obblighi di trasparenza per tutti i modelli di IA generativa come ChatGPT e DALL·E.
Le aziende dovranno:
- Dichiarare i dati utilizzati per l’addestramento.
- Rispettare il diritto d’autore.
- Etichettare i contenuti generati artificialmente.
Per i modelli più avanzati è prevista anche la valutazione del rischio sistemico, con l’obbligo di notificare eventuali incidenti alle autorità competenti.
Sanzioni per chi viola l’AI Act
Le aziende che non rispettano le nuove regole rischiano sanzioni fino a 35 milioni di euro o al 7% del fatturato globale per le violazioni più gravi.
Sono previste multe anche per le aziende non europee che operano nel mercato UE.
L’AI Act impone alle aziende di garantire un’adeguata alfabetizzazione in materia di IA per tutto il personale coinvolto, con programmi di formazione continua su aspetti tecnici, etici e legali.
Il regolamento sarà applicato in più fasi:
- Febbraio 2025: divieto delle IA pericolose e obbligo di formazione.
- Agosto 2025: nuove regole per l’IA generativa.
- Agosto 2027: norme più rigide per settori regolamentati come sanità e sicurezza.
- 2027-2029: completamento dell’attuazione e valutazione di eventuali aggiornamenti.